ÅRETS ALLC/ACH KONFERANSE

SIEGEN, 4.-10. JUNI 1990

Espen S. Ore og Kristin Natvig

Årets konferanse var den andre der ACH og ALLC stod sammen om arrangementet. Likevel var konferansen så sterkt preget av litteratur- og språkfagene at de fleste foredragene kunne vært holdt på en ren ALLC-konferanse. Det ble demonstrert noe maskin- og programutrustning, men det var på langt nær så mye å se som det var på den tilsvarende konferansen i Toronto i 1989.
Et inntrykk undertegnede sitter igjen med, er at det fortsatt er de "gamle" verktøyene som frekvensordlister og konkordanser som brukes mest i språk- og litteraturforskning. Disse verktøyene har eksistert siden antikken og er således ikke spesielt knyttet til datamaskiner i utgangspunktet. Til unnskyldning for konferansens tittel, "The New Medium", må det samtidig sies at det var noen, tildels interessante, foredrag om forskjellige hypertekstlige systemer. Én dag var også satt av til en innføring i kodesystemet som er foreslått av TEI (Text Encoding Initiative, se Lou Burnards artikkel i dette nr. av HD).
Paul Kahn fra Brown University (USA) holdt i åpningssesjonen foredraget "The Humanities Workstation: Environments for Today and Tomorrow". Der hevdet han blant annet at humanister generelt har behov for fire typer elektroniske verktøy:

 

- integrerte informasjonsomgivelser der programmer med mest mulig like
- grensesnitt kan brukes til å lagre, redigere og sammenkoble alle typer
- informasjon inklusive tekst, bilder, video, animasjon og lyd
- samlinger av grunnlagsdata i maskinleselig form
- referansedatasamlinger i maskinleselig form
- bibliografisk informasjon i maskinleselig form
Dessuten nevnte han i foredraget enkelte verktøy som han ikke hadde med i sin liste: Datakommunikasjon og muligheten for hypertekstlig kommentering av data. For øvrig var det mye av det han sa som minnet om en modernisert utgave av Vannevar Bush' artikkel "As We May Think", men i motsetning til Bush kunne Kahn i stor grad peke på allerede eksisterende muligheter.
Heinz Joachim Neuhaus fra Westfälische Wilhelms-Universität beskrev prosjektet "Shakespeare on CD-ROM". Dette prosjektet, som ifølge Neuhaus integrerer database, ekspertsystem og hypermedia, har som mål å legge Shakespeares verk på en CD sammen med bilder av tidlige trykte utgaver, tekstene normalisert etter nye og eldre skrivemåter og en merket (tagget) ordliste.
Geoffrey Rockwell og Willard McCarty fra University of Toronto presenterte prosjektet "Annota: An Experiment and Prototype in Scholarly Note Managment". Annota har røtter tilbake til et dBase II system laget i 1985, mens man nå bruker SuperCard på Macintosh. Annota er ment å skulle hjelpe i forskningsprosessen etterhvert som man noterer tekstlig informasjon. Annota viser informasjon på tre forskjellige korttyper (kort = skjermbilde): Notater, kart og sekvenser. Hvert av tekstkortene kan inneholde opptil ca. 32.000 tegn, og det kan brukes flere forskjellige tegnsett på samme kort. Kortene kan inneholde visuelle fremstillinger av tekstkort og grupperinger av dem. Sekvenskortene inneholder lister over korte synopsis av innholdet. Annota er fortsatt under utvikling, men det blir allerede prøvd av forskere ved University of Toronto.

 Espen S. Ore

 

PANEL: "THE HUMANITIES WORKSTATION: ENVIRONMENTS FOR TODAY AND TOMORROW"

Denne paneldiskusjonen ble holdt etter Paul Kahns foredrag. John Roper, University of East Anglia, Norwich, venter at framtidas datamaskiner vil kunne tilby bedre grafikk. Malcolm Brown, Stanford University, mente at noen av de fremste egenskapene vil være et godt brukergrensesnitt og evnen til å skyfle store mengder data. Ifølge George P. Landow, Brown University, Providence, vil arbeidsstasjonen kunne fungere som inngangen til et nettverk av data som vil influere forskningen p.g.a. de enorme mengdene som vil være tilgjengelig. Dessuten vil forholdet mellom leser og forfatter endres, slik at forestillingen om hva som utgjør vitenskapelig forfatterskap må revideres. Det vil dermed bli nødvendig å definere hva han betegnet som et "public work". Samarbeid mellom forskere vil altså bli mer utbredt i framtida. Etter Paul Kahns oppfatning vil det viktigste trekket ved framtidas arbeidsstasjoner være en integrasjon med biblioteksfunksjoner.

 

ELECTRONIC TEXTS: LEGAL ASPECTS

Catherine Blackburn fra University of Oxford ga en orientering om den britiske opphavsrett-lovgivningen og hvordan den anvendes i forbindelse med elektroniske tekster. I Storbritannia må den som ønsker å lage en elektronisk versjon av en tekst ha tillatelse fra den som har opphavsretten. For å selv få opphavsrett til en elektronisk versjon av en tekst, kreves det en viss grad av originalitet i tilretteleggingen.
Lagring, visning på skjerm, manipulering, formidling, distribusjon, nedlasting, og fotokopiering av en elektronisk tekst - alt regnes som kopiering, og den som vil utføre noe av dette, må få tillatelse av den som har opphavsretten.
Med andre ord: Britisk lovgivning på dette feltet er temmelig lik den norske.

 

STATE OF THE ART: THE DEVELOPMENT AND CATALOGUING OF ELECTRONIC TEXT

Michael Neuman, Georgetown Center for Text and Technology, Georgetown University, Washington DC presenterte senterets arbeid med "Catalog of Archives and Projects in Machine-Readable Texts" og den tilhørende databasen. Hittil er det registrert 308 prosjekter i 76 språk fra 26 land. De fleste er engelskspråklige, men også land som Brasil og Saudi-Arabia er representert. Materialet dekker fagområdene lingvistikk, litteratur, bibelstudier og språk, og spenner over hele 5000 år (skjønt de fleste tekster stammer fra det 20. århundre).
Oxford Concordance Program, WordCruncher og Ibycus er de fremste analyseredskapene som brukes i prosjektene/arkivene. Det er få eksempler på hypertekst-anvendelser, og SGML (Standard Generalized Markup Language) er foreløpig lite brukt.
Neuman mente at utviklingen går i retning av standardisering, samarbeid både store arkiv imellom og mellom små og store, bruk av kodesystemet foreslått av TEI samt mer fagspesifikke prosjekter.
Prisene på elektroniske tekster går stadig nedover; som eksempel nevnte Neuman Oxford University Press' Shakespeare-utgave, som nå koster halvparten av den opprinnelige prisen. Tekster vil uten tvil bli billigere i elektronisk form enn på papir.

 

THE HISTORY WORKSTATION PROJECT

Manfred Thaller, Max-Planck Institut für Geschichte, Göttingen, innledet en spesialsesjon om en gruppe med forskningsprosjekter som har som hovedformål å utvikle edb-redskaper for historisk (og relatert) forskning. Thaller fortalte bl.a. at prosjektmedarbeiderne har gitt opp å prøve å standardisere koder for merking av historisk materiale. De arbeider heller med standarder for utveksling av data.
Manus ble utdelt til følgende foredrag holdt under denne sesjonen: "Transforming Machine-Readable Sources" (Thomas Werner, Göttingen), "Historical Data Bases and the Context Sensitive Handling of Data. Towards the Development of Historical Data Base Management Software" (Wolfgang Levermann, Göttingen), "Linguistic Knowledge as a Background Component of an Application Oriented Workstation" (Ursula Leiter-Köhrer, Graz), "The Image as Historical Source or: Grabbing Contexts" (Gerhard Jaritz), "Integrated Computer Supported Editing, Approaches and Strategies (Susanne Botzem og Ingo H. Kropac, Graz) og "Saintly Times: Medieval Chronology as Historical Knowledge" (Detlef vom Bovert og Rolf Huthsteiner, Siegen; på tysk). De som er interessert i kopier av disse manusene, kan henvende seg til undertegnede.
For øvrig ble det under hele konferansen holdt meget godt organiserte demonstrasjoner av programvare utviklet i forbindelse med ovennevnte prosjekter.

 

DANIEL DEFOE: AN AUTHORSHIP ATTRIBUTION STUDY

På konferansen var det utrolig mange uinspirerte foredragsholdere som ramset opp manusene sine ledsaget av uleselige overheads. Det var derfor en glede å være til stede ved Joseph Rudmans klare og engasjerende framstilling av sitt arbeid med å tilrettelegge en database over verk som kan tilskrives Daniel Defoe.
Gjennom årene er ca. 850 verk - de fleste utgitt anonymt - tilskrevet Defoe. Forfatteren var kjent for å skrive om et utall forskjellige emner; han skrev nye versjoner av sine verk; kopierte deler av andres skrifter; brukte psevdonymer og forsøkte å benytte ulike stilarter for å skjule sin identitet; forfattet artikler på vegne av begge de daværende politiske partiene, m.m.
Rudman har utelatt verk som nyere forskning har slått fast ikke kan være skrevet av Defoe. Materialet hans består av 12 verk som Defoe helt sikkert har vært forfatter av, samt 22 usikre verk.
Rudmans arbeidsmetode er følgende: Først koder han stilistiske trekk ved Defoes kjente verk (A), verk av andre forfattere i samme periode (B), og verkene som Defoe muligens har skrevet (C). Den karakteristiske distribusjonen av stilistiske trekk i alle tre bolker med skrifter blir regnet ut. Fellestrekkene mellom A og B sjaltes ut, og deretter sammenlignes C med A. Rudman utfører dette arbeidet dels av egen interesse, dels som et hjelpemiddel for andre Defoe-forskere.

 

METHODS AND APPLICATIONS: THE EXAMPLE OF FRENCH

Paul A. Fortier, University of Manitoba, Winnipeg, tok fransk litteratur som utgangspunkt for sitt foredrag om edb-metoder og -anvendelser. Han mente at datateknologien kommer til å endre litteraturvitenskapen like mye som oppfinnelsene i det 18. århundre forandret studiet av naturvitenskapene. Han var imidlertid sterkt kritisk til dagens edb-bruk - han ser en tendens til konsentrasjon om hva datamaskinen kan utføre enklere enn manuelle metoder. Som eksempel nevnte han produksjon av konkordanser, som er blitt et mål i seg selv. Edb-anvendelser overskygger litteraturvitenskapelig metodologi. Altfor mye forskning er basert kun på eksempler.
Bortsett fra arbeidet med Daniel Defoe (se over), er forsøk på forfattertilskrivelse av liten betydning. Selv om et verk viser seg å være skrevet av en annen forfatter enn man opprinnelig trodde, er teksten fremdeles den samme, ifølge Fortier.
Etter dette foredraget ble det holdt en tam paneldebatt om "Methods and Applications of Computer Science in the Humanities", hvor det eneste noenlunde tankevekkende var Rosanne G. Potter's (Iowa State University) uttalelse at humanister burde ta seg helt fri fra datamaskinen i minst seks måneder for å tenke over de virkelige problemstillingene innen edb og humaniora (hva nå de er).

 

MEDIA AND COMPUTERS

Denne sesjonen dreide seg dels om det britisk forskningsprogrammet PICT (Programme on Information and Communications Technologies), dels om datakunst.
PICT ble presentert av direktøren, Nigel Gardner ved University of Oxford. Forskningsprogrammet har som formål å undersøke de økonomiske, sosiale, administrative og politiske spørsmål som reiser seg ved utviklingen av informasjons- og kommunikasjonsteknologier. Programmet utføres av hele 80 forskere, fordelt i tverrfaglige grupper ved seks forskningssentre i England og Skottland. Det ble startet i 1987 og har finansiering til minst 1995.
Innenfor rammen av programmet utføres forskning om bl.a. hvordan teknologien påvirker individer, livsstil, kultur og regional identitet. I regi av PICT er det også initiert hovedfags- og doktorgradsprogrammer. Kjernedisiplinene er administrasjon, geografi, "politics", sosiologi, økonomi og sosialantroplogi. Merkelig nok - eller kanskje som ventet? - glimrer de humanistiske fagene ved sitt fravær. Dette skyldes nok at programmet finansieres hovedsakelig av Economic and Social Research Council.

Forskningssenterene i PICT-nettverket.

I sitt foredrag knyttet Gardner arbeidet i PICT til påfølgende tema i sesjonen. Han pekte på sammensmeltingen mellom edb, telekommunikasjon og kringkasting, og at vi nå er vitne til det totale elektroniske miljøet. Virtuelle miljøer (dvs. edb-genererte kunstige miljøer) slik som "det elektroniske universitet" har en enorm visuell påvirkningskraft. Virtuelle virkeligheter utfordrer også vårt syn på kunst, ettersom det f.eks. er mulig å spasere gjennom bygninger som ikke eksisterer.
Det visuelle inntrykket gitt av en virtuell virkelighet skaper også et behov for nye språklige redskaper til bruk ved formidling - en erfaring jeg gjorde ved forsøk på å gjengi i det minste inntrykk fra data-animasjonsfilmene som deretter ble vist.
Filmprodusenten Franz Kluge viste to slike filmer - "Journeys to Nothingness" og en om en vandring i Berlin etter et atomangrep - hvori arkitektoniske former brukes som metaforer. I både emne og uttrykk var disse helt i Kafkas ånd. Kluge påpekte at ettersom emnene er så urealistiske, passer datagrafikk utmerket til å utforme det visuelle uttrykket. Han betrakter ikke datamaskinen som et middel til å fortelle en historie - han bruker den hvis han har et innhold som lar seg uttrykke/visualisere ved hjelp av den.
Mediekunstneren Jürgen Claus presenterte "The Animated Vision Machine", en video-forestilling som ga noen eksempler fra de senere årene på hva han betegnet som "grensesnitt mellom visuell kunst og datamaskinen". Forestillingen var delt i tre:
Compuformance omfattet en blanding av video og data-animasjon som forener det visuelle og bevegelse innen teater, dans og "performance".
The Memory of Electronic Spaces bestod også av kunstverk hvor både video og data-animasjon er benyttet. Disse viser et slektskap med hypermedia, særlig ungareren Tamás Waliczkys "Pictures", som kan brukes interaktivt av andre kunstnere.
The "A-B-C" Project: Art-Biosphere-Computer er Claus' eget prosjekt, hvor han utforsker ideer om en ny form for interaksjon mellom mennesker og maskiner som er basert på naturlover. Claus mener at det er de kunstneriske fenomenene som skaffer oss materiale som gjør oss i stand til å finne betydningsfulle metaforer innen sosiale, kulturelle, geografiske, geopolitiske og elektroniske endringer. Han viste sin meget avanserte "Solar Energy Sculptures" samt "Solar Expert System", en "skissebok med ideer" som det kan arbeides med interaktivt.
Claus vil tydeligvis formidle et budskap som skal bidra til å rette oppmerksomheten mot de mer "menneskelige" verdiene. I denne sammenhengen innebærer imidlertid ofte bruken av edb for å framstille kunstverk en selvmotsigelse, ettersom resultatene nesten alltid gir et svært kaldt, teknisk inntrykk. En blir unektelig fascinert av å se hvordan kunstnere utnytter avansert programvare i sine produksjoner, men fascinasjonen er av intellektuell art, den springer ut av et kjølig, observerende blikk, ikke en følelsesmessig opplevelse. Et unntak her er en data-animasjonsfilm av Dean Winkler som Claus også viste. Denne var ikke bare noe av det mest avanserte jeg har sett - den var også utrolig vakker, en sann estetisk nytelse.

 

AUTOMATIC GENERATION OF TEXTS WITHOUT USING COGNITIVE MODELS: TELEVISION NEWS

Det faglig sett mest oppsiktsvekkende foredraget jeg overvar under hele konferansen ble holdt av Ulrich Schmitz, Universität Duisburg. Schmitz fengslet tilhørerne med resultatene av sine språklige analyser av fjernsynsnyheter. Han har brukt tradisjonelle metoder for lingvistisk analyse og statistikk på to måneders sendinger av en tysk "dagsrevy" (110.000 ord), og fant at nyhetsmeldingene er bygget opp ifølge kun 38 lingvistiske "trekk". Meldingene settes sammen av mer eller mindre ferdige språklige enheter og kan deles inn i 14 temakategorier som "reiser og møter" og "død, ulykke og dårlig vær". Nyhetsspråket er så ensformig at det faktisk kan produseres automatisk uten bruk av kompliserte kognitive AI-modeller.
Schmitz forklarte hvordan hele teksten til en tysk "dagsrevy" kan produseres i 10 trinn ved hjelp av et Prolog-program sammen med en databank med bl.a. stadig oppdaterte person- og stedsnavn og et leksikon med syntagmatiske strukturer. Dermed kan det lages en "nyhetsmaskin" som vil være i stand til å spy ut "aktuelle" meldinger langt ut i neste århundre!
Prosjektets resultater kan selvfølgelig også fungere som basis for en kritikk av den aktuelle tyske dagsrevyens forenklede og stereotype formidling av nyheter. Med Schmitz' ord - enkel kunstig intelligens kan enten erstatte naturlig dumhet eller avsløre den. Analysen viser også ifølge Schmitz hvor enkelt det kan være å programmere en datamaskin til å overta menneskelig reproduksjon av kunnskap.

 

DEMONSTRASJONER

WIZDOM

Demonstrasjonene på konferansen var svært dårlig organisert - det var ofte umulig å finne ut av hvor og når de egentlig skulle finne sted. Jeg lyktes imidlertid i å få personlig veiledning i bruk av demo-versjonen av WIZDOM, et undervisningsprogram for engelsk på PC, utviklet av en tysk universitetslektor sammen med tre studenter. Pakken kombinerer tekstbehandling med leksikon-støtte og undervisningsprogrammer. Leksikonet - VIRTEX - omfatter 7000 ordstammer og er raskt tilgjengelig uansett hvilken oppgave brukeren til enhver tid utfører. I tillegg til å gjenfinne enkeltord eller ord i kontekst gis det en fullstendig morfologisk analyse av hvert ord og en oversettelse til tysk eller spansk. VIRTEX kan også gjøre nytte av kollektive morfologi-baserte søkefunksjoner (f.eks. "finn alle flertallssubstantiver"). Leksikonet kan utvides etter behov.
Teksteditoren tillater brukeren å konvertere en eksisterende tekst (opptil 30 sider) til øvinger slik som utfyllings- og flervalgsoppgaver og spørsmål som må besvares. FLINGER genererer øvinger enten automatisk eller interaktivt. Brukes denne komponenten automatisk, forutser den feil, og den gir definisjoner av synonymer samt morfosyntaktiske forklaringer og en detaljert evaluering av svarene. WIZDOM har også en spill-komponent som fungerer som en morsom form for vokabulartrening.
I skrivende stund er WIZDOM versjon 1.0 allerede utgitt. Det koster DM 789,- fra KWINTUS Software, c/o Dr. J. Handke, Robert-Lütters-Weg 3, 5600 Wuppertal 12.

 

MACENGLISH

MacEnglish består av flere programmer på CD-ROM: Inform (hverdags-konversasjon), Executive English (forretnings-konversasjon) og Pronunciation Plus (uttale-trening). Inform er lagt opp som et tidsskrift, hvor hvert nummer inneholder artikler om ulike aspekter ved amerikansk kultur. I tilknytning til artiklene får studenten høre amerikanere snakke om emnene. Det er mulig å "delta" i konversasjonen ved å ta opp og spille tilbake sin egen stemme. Dette foregår ved hjelp av MacEnglish Sound Center, en lydkontroll-boks som kobles til Macintosh'en. (Denne var dessverre ikke i drift da jeg skulle prøve ut systemet). Opplegget inkluderer også flervalgs- og rett-eller-galt spørsmål til hver artikkel.
Inform er beregnet på studenter fra de som kan litt engelsk fra før til de med noe avanserte kunnskaper. Selv om språket nødvendigvis må være forholdsvis enkelt, synes jeg at stoffet og presentasjonen med fordel kunne vært litt mindre platt - det er tross alt voksne som skal gjennomgå det. Et spennende aspekt ved både Inform og Executive English er imidlertid at ens egen uttale og stavelsestrykk blir sammenlignet med den innfødte talerens, slik at resultatene fremstilles grafisk på skjermen.
Programmene inneholder et minimum av oversettelse - det gis kun korte kontekstuelle forklaringer til vanskelige ord og idiomatiske uttrykk. Grammatiske forklaringer fins overhodet ikke - MacEnglish er fullstendig basert på en kommunikativ tilnærmingsmåte til tilegnelse av fremmedspråk.
I Pronunciation Plus lærer en lydene i amerikansk engelsk med utgangspunkt i likheter/ulikheter med lydene i ens eget språk (foreløpig bare japansk, men en spansk versjon planlegges). Hver leksjon starter med individuelle lyder, og går så videre til ord, setninger og dialoger. Det tilbys bl.a. animasjoner som viser hvordan en skal plassere tungen og bevege lepper og kjever.
MacEnglish er utviklet av språklærere i firmaet Proficiency, Salt Lake City, Utah. I Europa kan mer informasjon fås fra: MacEnglish, Franziskanerstr. 36, 8000 München 9. Tlf. + 49 89 4487081. Fax: + 49 89 483789.

 Kristin Natvig